El entusiasmo tecnológico, exacerbado en estos años, tiene uno de sus hitos en la Inteligencia Artificial. Resaltar sus méritos no implica pasar por alto los múltiples interrogantes que plantea. Un paper reciente que lleva el sello de la Casa Blanca, por el National Science and Technology Council hace un repaso tan sistemático como minucioso de las contradicciones que plantea la IA y propone una serie de 23 recomendaciones para afrontarlas. No deja de ser relevante que el documento se publicara en octubre, a pocas semanas de la elección presidencial. El triunfo de Donald Trump no es un augurio de continuidad a las recomendaciones del equipo de Obama así que mejor será leerlas cuanto antes.
Aunque no tiene por qué ser original tratándose de una recopilación, es una excelente revisión de las cuestiones fundamentales que plantea la IA. inalidad, recuerdan los tres autores con sencillez, es automatizar tareas que hasta ahora nunca habían sido automatizadas. No es que no haya ocurrido antes en la historia de la humanidad, y siempre con los los correlativos aumentos de productividad y de riqueza. Como en cada una de esas oleadas, la IA destruirá empleo, particularmente los de baja capacitación y bajos salarios. Por evidente que esto resulte, da lugar a una recomendación que heredará el próximo inquilino del 1600 Pennsylvania Avenue: diseñar políticas públicas que incentiven los empleos en los que se necesiten habilidades que complemente a la IA en vez de competir con ella. Lo que parece una doble batalla perdida de antemano.
Sin embargo, advierten los investigadores del NSTC, esto podría conducir a ensanchar la brecha salarial existente entre las personas según su grado de educación, con lo que proponen un estudio concienzudo de los efectos en el mercado laboral antes de abordar prematuramente una respuesta desde las políticas públicas.
Para empezar un recorrido por el documento, este rechaza la visión apocalíptica expresada en la ciencia ficción y puesta en el candelero por personalidades de la industria tecnológica, como Elon Musk, fundador de Tesla. Destaca, por el contrario, la postura de los investigadores que ven la IA como una forma de asistencia a las personas. Se inclina al fin por sugerir que las legítimas preocupaciones a largo plazo sobre la IA no debería afectar a las políticas que se deben poner en práctica en este momento.
En cuanto al bien público, se ahonda en el papel que la IA puede jugar en la sanidad, como la medicina de precisión –predicción de problemas para atajarlos con tratamientos preventivos– y la investigación contra el cáncer. Una gestión del tráfico más eficiente, con la consiguiente reducción de las emisiones y la mejora de calidad de vida de los ciudadanos, así como las aplicaciones en el ámbito legal, tanto para alertar sobre delitos como tomar decisiones más informadas en un juicio, son otros de los usos de la IA.
El problema aquí es que la justicia y las instituciones que orquestan las políticas públicas normalmente son profanas en tecnologías avanzadas. Para que se potencien estos usos, los reguladores deberían buscar la colaboración de investigadores cualificados. Otra de las recomendaciones es que las agencias federales den prioridad a los datos abiertos. Incluso se propone un programa al que los autores han llamado ‘Open Data for AI’, un contenedor de bases de datos liberadas por el gobierno para acelerar el desarrollo de esta tecnología en los sectores académico, gubernamental y privado.
Con respecto a la capacidad de las agencias gubernamentales en IA, hay algunas – como la famosa DARPA o el National Institute of Health– que tienen presupuesto sobrado para explorar sus usos. Otras, como el departamento de Trabajo, no cuentan con fondos para una tarea tan necesaria en su campo. Los asesores de la Casa Blanca recomiendan que las agencias trabajen juntas para compartir estándares y buenas prácticas sobre el uso de IA en las operaciones gubernamentales.
Quizá el asunto más espinoso es el de la regulación. Coches autónomos y drones son los ejemplos más evidentes del dilema. Con respecto a los segundos, un estudio de la Association for Unmanned Vehicle Systems International apuntaba que la industria de los drones comerciales podría generar más de 82.000 millones de dólares a la economía de Estados Unidos, así como 10.000 nuevos puestos de trabajo en los siguientes diez años. Otra estimación citada en el informe fija en la cuantía de 13.600 millones de dólares el valor económico que creará este nuevo sector en los primeros tres años de su integración en el espacio aéreo.
A mediados de este año, la Federal Aviation Administration ha aprobado una normativa que permite los vuelos de aeronaves no tripuladas, a una altura de menos de 120 metros, limitados a horas diurnas y siempre a la vista del piloto que maneja el control remoto. Son medidas orientadas a favorecer a la industria, pero a la vez prudentes. Es un viejo quebradero de cabeza: ¿cómo garantizar la seguridad de los ciudadanos sin poner cortapisas al crecimiento económico? En este asunto, se recomienda desarrollar un marco legal abierto a la evolución, para garantizar una integración segura de los drones y otros vehículos autónomos al sistema de transporte, así como invertir en el desarrollo de una plataforma de gestión de tráfico aéreo automatizada y escalable, encargada de la coordinación de aeronaves tripuladas y no tripuladas.
Los coches autónomos son el otro gran caballo de batalla legislativo. Uno de los argumentos que más dice a su favor es, sobra decirlo, que habrá menos accidentes. De hecho, existe una oportunidad considerable para reducir el número de víctimas en las carreteras, pero tal y como indica el informe, con las prácticas actuales hay una muerte por cada 100 millones de millas que los vehículos recorren. No es una marca tan fácil de superar. Y es que la operación de conducir no se puede definir con una inteligencia artificial débil (Narrow IA) sino que consta de tareas complejas. Algunas se resuelven con Narrow IA, pero no la integración de todas ellas –manejar el volante, detectar y evitar obstáculos, lidiar con fallos mecánicos – ni el establecimiento de prioridades según cada circunstancia. La capacidad de decisión de la conducción autónoma tiene que tener en cuenta los casos marginales, como cuando un conductor debería saltarse las normas de tráfico para evitar un accidente.
Todo esto son retos tecnológicos, pero vienen a colación por cuanto muestran la necesidad legal, en caso de accidente, de trasladar la responsabilidad humana al software. El informe recomienda que los centros académicos incluyan lecciones de ética como parte del conocimiento básico de Inteligencia Artificial. La legislación, que deberá modificarse a partir del marco actual, habrá de tener en cuenta los riesgos nuevos que pueden aparecer, pero también aquellos que podrían minimizarse gracias a los coches autónomos. En definitiva, gran parte del reto consiste en garantizar una transición segura desde los entornos cerrados de laboratorio al mundo exterior, donde tienen lugar eventos impredecibles. El informe de la Casa Blanca propone elaborar bases de datos con casos excepcionales, para con ellas entrenar a los algoritmos e incrementar el intercambio de datos en seguridad e investigación. Para arropar el desarrollo también aconseja que las agencias encargadas de la regulación tengan expertos en plantilla para guiarlos en el planteamiento de las normativas, así como un equipo con diferentes perspectivas sobre el estado de la tecnología.
En lo que respecta a la investigación, en 2015 el gobierno federal invirtió 1.100 millones de dólares en el impulso de tecnologías relacionadas con IA. En 2016, la cifra ha crecido poco, hasta 1.200 millones. Se investiga, claro que sí, pero el documento apunta la necesidad de monitorización de esta actividad por parte del gobierno, estableciendo ciertas metas. Se citan tres: 1) obtener éxito en tareas menos estructuradas, 2) unificar estilos diferentes de IA y 3) resolver retos técnicos como la transferencia de conocimiento.
Hoy, la mayoría de la investigación se hace en el sector académico y en las empresas. Normalmente se publican los resultados de los trabajos de estas, pero si la competencia incrementara el secretismo la monitorización se complicaría. El informe recomienda, pues, al gobierno trabajar con la industria para mantenerse al día acerca de los progresos en IA, así como priorizar la investigación básica y a largo plazo, cubriendo los huecos en los que no invertirá el sector privado por falta de interés pecuniario.
Como el papel del sector educativo es crucial en estas materias, el informe también le dedica un apartado. Se necesitan más programas y profesores especializados para que en el futuro se cree una fuerza de trabajo efectiva sobre IA. También, por supuesto que los hay, problemas de género y raza. Aunque se señala que la falta de diversidad en IA es un reflejo de lo que ocurre en la industria tecnológica en general. Las recomendaciones pasan por iniciar un estudio sobre cómo debería de ser una fuerza de trabajo de IA y tomar las medidas necesarias para que esta crezca en tamaño, calidad y diversidad.
En cuestiones como el sistema de justicia, la IA tiene capacidad de agilizar los procesos, pero la posibilidad de que la tecnología tome decisiones con consecuencias profundas sobre las personas es algo que preocupa. Una de las mayores inquietudes que despierta el uso del Big Data en el sistema de enjuiciamiento es la falta de datos y, sobre todo, la falta de datos de calidad, que puede llevar a un sesgo en la toma de decisiones. Para garantizar la justicia – no solo en el ámbito legal sino en otros, como en la gestión de recursos humanos – habría que aumentar la transparencia de las herramientas de IA que se utilizan para fines públicos. Su opacidad actual sólo se podría solventar mediante un entrenamiento exhaustivo, a partir del estudio de una larga muestra de resultados erróneos. En este punto, las recomendaciones son rudimentarias: las agencias federales deberán asegurarse de que las herramientas de IA que podrían tomar decisiones acerca de personas se basen exclusivamente en evidencias verificadas.
El ámbito de la seguridad se deja para el final, y tiene sentido que así sea. La cuestión tiene varias patas, se señala. En la versión más doméstica, el hecho de que una inteligencia artificial vaya a controlar equipos físicos, como un robot de limpieza, plantea ciertas inquietudes pueriles: ¿cómo garantizar que el robot no pasará la mopa mojada sobre un enchufe?
Como podía esperarse, el informe recomienda una colaboración entre profesionales de la IA y especialistas en seguridad y control para que la ingeniería madure adecuadamente. Con las cuestiones más globales, como las aplicaciones a la hora de responder a desastres, luchar contra el cambio climático o controlar el tráfico de especies protegidas, se alecciona al gobierno estadounidense para que desarrolle una estrategia amplia que incluya el intercambio con otros actores internacionales.
Este enfoque internacional también lo recomiendan los autores en relación con el armamento. El gobierno de Estados Unidos debería desarrollar una política única sobre armas autónomas o semiautónomas, pero que sea congruente con las leyes humanitarias internacionales. Es un intento por no deshumanizar aún más la guerra o, si se quiere, un brindis al sol. Las armas llamadas LAWS (lethal autonomous weapon systems) exponen a un riesgo menor a los soldados, situados a mayor distancia del objetivo. Vale. Sin embargo, esta distancia genera inquietud en tanto puede llevar a que un bombardeo parezca un videojuego alejado de la realidad. Y no es fantasía cinematográfica.
En la última arista, la de ciberseguridad, el informe hace hincapié en la gran inversión de tiempo y talento que se necesita para diseñar y operar sistemas complejos de seguridad. Automatizar el proceso desembocaría en costes muy inferiores y – un poco idílicamente – en una mayor agilidad de las ciberdefensas, resultante de la generación de modelos de amenazas dinámicos que permitirían anticiparse. La recomendación recae en el voluntarismo: las agencias involucradas en IA deben trabajar con los expertos del gobierno y del sector privado en ciberseguridad para saber cómo garantizar que los sistemas de ciberdefensa automatizados son seguros y elásticos ante adversarios inteligentes.
[informe de Pablo G. Bejerano]